Материалы по тегу: google cloud platform
05.02.2025 [23:04], Владимир Мироненко
Рост Google Cloud замедлился, но ради ИИ компания готова потратить $75 млрд на серверы и ЦОД в 2025 годуХолдинг Alphabet, материнская структура Google, сообщил финансовые результаты IV квартала и всего 2024 финансового года, завершившегося 31 декабря. По итогам 2024 года чистая прибыль Alphabet впервые превысила отметку в $100 млрд, составив $100,12 млрд при выручке в $ 350,02 млрд, выросшей год к году на 14 %. Результаты Alphabet оказались ниже прогнозов Уолл-стрит, поэтому акции холдинга упали на 9 % во вторник на внебиржевых торгах. Консолидированная выручка Alphabet в IV квартале 2024 года выросла на 12 % в годовом исчислении до $96,47 млрд США, что, как утверждает холдинг, отражает устойчивую динамику во всём бизнесе. Вместе с тем показатель оказался ниже консенсус-прогноза аналитиков, опрошенных LSEG, полагавших, что выручка должна быть выше — в пределах $96,56 млрд. Также аналитиков разочаровал квартальный доход облачного подразделения Google Cloud, составивший $11,96 млрд, что на 30 % выше прошлогоднего результата, но ниже консенсус-прогноза в размере $12,19 млрд экспертов, опрошенных StreetAccount. Чистая прибыль Alphabet выросла на 28 % до $26,54 млрд, превысив прогноз аналитиков LSEG в размере $26,0 млрд, при этом чистая прибыль на акцию выросла на 31 % до $2,15, что выше ожиданий аналитиков, опрошенных LSEG, в размере $2,13 на акцию. Alphabet объявил, что выделит $75 млрд на капитальные затраты в 2025 году по сравнению с $52,5 млрд в прошлом году. Это тоже вызвало вопросы у инвесторов, поскольку разница более чем в $22 млрд могла быть добавлена к прибыли холдинга. При этом другие гиперскейлеры также увеличат траты на инфраструктуру: Meta✴ готова вложить $60–65 млрд, а Microsoft — $80 млрд. В свою очередь, руководство Alphabet настаивает на том, что инвестиции оправданны, поскольку Google Cloud сейчас не в состоянии удовлетворить спрос на ИИ-технологии. Финансовый директор Alphabet Анат Ашкенази (Anat Ashkenazi) заявила в ходе онлайн-конференции с аналитиками, что холдинг прилагает все усилия, чтобы развернуть больше мощностей и справиться со спросом. По её словам, эти цифры в первую очередь отражат инвестиции в техническую инфраструктуру, причем крупнейшим компонентом являются инвестиции в серверы, за которыми следуют ЦОД «для поддержки роста бизнеса Google Services, Google Cloud и Google DeepMind». «Мы находимся в ситуации с дефицитом предложения при высоком спросе, и усердно работаем над тем, чтобы ввести больше мощностей в эксплуатацию», — отметила Ашкенази. Она сообщила, что темпы роста облачного подразделения Google могут измениться в 2025 году, поскольку компания продолжает закупать всё больше оборудования и строить больше объектов. По её словам, капитальные затраты Alphabet в I квартале составят от $16 до $18 млрд, и квартальный показатель изменится в течение года. Это выше прогноза аналитиков FactSet в размере $14,3 млрд. Капитальные затраты Alphabet за IV квартал составили $14 млрд превысив ожидания Уолл-стрит в $13,26 млрд, согласно StreetAccount. Сомнения инвесторов в правильности инвестиционной политики Alphabet усилились после анонса китайским стартапом DeepSeek ряда ИИ-моделей, расходы на обучение которых оказались гораздо ниже, чем у Google. «Неутешительные результаты Cloud говорят о том, что импульс, основанный на ИИ, может начать ослабевать как раз в то время, как стратегия Google с закрытой моделью ставится под сомнение DeepSeek», — отметила Эвелин Митчелл-Вольф (Evelyn Mitchell-Wolf), аналитик исследовательской компании Emarketer. Что касается остальных подразделений Alphabet, то рост доходов от рекламы Google составил 10,6 % по сравнению с 11 % годом ранее. Доходы от поиска выросли год к году на 12,0 % до $54,03 млрд по сравнению с ростом на 12,7 % в IV квартале 2023 года. Доходы от рекламы на YouTube выросли на 13,8 % до $10,47 млрд по сравнению с 15,5 % роста годом ранее, а рост всех доходов сервисов (Google Services) составил 10,2 % по сравнению с 12, % годом ранее.
04.02.2025 [12:03], Владимир Мироненко
Google представила превью инстансов A4 на базе ускорителей NVIDIA B200Google объявила о предварительной доступности инстансов A4 на базе новых ускорителей B200 от NVIDIA с архитектурой архитектуры Blackwell. Инстанс A4 обеспечивает значительный прирост производительности по сравнению с предшественником A3. A4 используют системы NVIDIA HGX B200 с восемью ускорителями, объединёнными посредством NVIDIA NVLink. Как отметила компания, NVIDIA HGX B200 предлагает в 2,25 раза большую пиковую вычислительную мощность и в 2,25 раза большую ёмкость HBM по сравнению с инстансами A3, что делает A4 универсальным вариантом для обучения и тонкой настройки широкого спектра архитектур моделей, в то время как увеличенная вычислительная мощность и ёмкость HBM делают их подходящим вариантом для обработки нагрузок с низкой задержкой. Инстансы A4 интегрируют инфраструктурные инновации Google, включая улучшенные сетевые возможности с использованием адаптеров Titanium ML, поддержку управляемой службы кластера Google Kubernetes Engine и доступ через полностью управляемую унифицированную платформу Vertex AI для разработки и использования генеративного ИИ. Также используется открытое ПО: в дополнение к использованию фреймворка МО PyTorch и CUDA компания сотрудничает с NVIDIA для оптимизации JAX и XLA. Как отметила компания, эффективное масштабирование обучения модели ИИ требует точной и масштабируемой оркестрации ресурсов инфраструктуры. При этом рабочие нагрузки часто охватывают тысячи виртуальных машин. Специализированная платформа Hypercompute Cluster позволит развёртывать и управлять большими кластерами виртуальных машин A4 с вычислениями, хранением и сетями как единым целым, обеспечивая при этом высокую производительность и устойчивость для больших распределённых рабочих нагрузок.
17.01.2025 [00:06], Владимир Мироненко
Google представила инстансы C4A с фирменными Titanium SSD и Arm-процессорами AxiomGoogle объявила о доступности инстансов C4A с кастомными накопителями Titanium SSD, специально разработанными для облачных нагрузок, требующих обработки данных в реальном времени, с низкой задержкой и высокой пропускной способностью хранилища. Titanium SSD в составе инстансов C4A, построенных на Arm-процессорах Axion собственной разработки, обеспечивают производительность до 2,4 млн IOPS на операциях случайного чтения, до 10,4 ГиБ/с пропускной способности чтения и до 35 % более низкую задержку доступа по сравнению с SSD предыдущего поколения. Titanium SSD — первое поколение SSD Google, интегрированных с DPU Titanium, обеспечивающей повышение производительности выполнения приложений за счет разгрузки операций по работе с сетью и хранилищем, а также управления. Семейство инстансов C4A на базе процессоров Google Axion обеспечивает до 65 % выше производительность и до 60 % лучше энергоэффективность по сравнению с аналогичными инстансами текущего поколения на базе архитектуры x86. Как сообщает Google, C4A с Titanium SSD обеспечивают самое выгодное в отрасли соотношение цены и производительности для широкого спектра совместимых с Arm универсальных рабочих нагрузок, таких как высокопроизводительные базы данных, аналитические системы, поисковые и рабочие нагрузки, которые выигрывают от кеширования и использования локального хранилища. Конфигурация C4A с Titanium SSD включает до 72 vCPU, 576 Гбайт памяти и 6 Тбайт локального хранилища в двух вариантах — Standard (4 Гбайт RAM на vCPU) и High-memory (8 Гбайт/vCPU). Сетевое подключение C4A имеет пропускную способностью до 50 Гбит/с или до 100 Гбит/с. Инстансы также поддерживают новейшее поколение хранилища Balanced и Extreme Hyperdisk с производительностью до 350 тыс. IOPS и пропускной способностью до 5 Гбайт/с на виртуальную машину. Клиенты Google Cloud могут использовать C4A с Titanium SSD для сервисов Compute Engine, Google Kubernetes Engine (GKE), Batch, Dataproc и т.д. Инстансы C4A теперь также доступны в версии превью в Dataflow с поддержкой Cloud SQL, AlloyDB и других сервисов, которые появятся в ближайшее время. C4A доступны по запросу, в качестве спотовых и зарезервированных инстансов, со скидками за обязательное использование (CUD) и FlexCUD в регионах us-central1 (Айова), us-east4 (Вирджиния), us-east1 (Южная Каролина), europe-west1 (Бельгия), europe-west4 (Нидерланды), europe-west3 (Франкфурт), europe-west2 (Лондон) и asia-southeast1 (Сингапур). Вскоре они появятся в других регионах.
02.12.2024 [21:29], Руслан Авдеев
Google предлагала европейским облакам миллионы евро для продолжения борьбы с MicrosoftСогласно закрытым документам, тексты которых попали в распоряжение The Register, в своё время Google Cloud предлагала «финансовые стимулы» на сотни миллионов евро для организации европейских облачных провайдеров CISPE, жаловавшихся регуляторам на Microsoft. Как свидетельствуют источники, представитель Google общался как с руководством группы, так и со всему участниками организации CISPE. В ходе одной из презентаций предлагалось создать для участников организации Фонд инноваций в объёме €4 млн, который использовался бы для финансирования проектов и лицензионных сборов участников CISPE, для поддержки инноваций в открытых облачных экосистемах. На каждого участника пришлось бы порядка €100 тыс. — сейчас в CISPE 36 членов, в том числе Oxya, Leaseweb, UpCloud и даже AWS, единственная «неевропейская» компания. Ещё в июле группа включала лишь 27 компаний. Дополнительно Google предложила выделить CISPE ещё €10 млн в качестве «ресурсов на участие и членство». Наконец, Google предложила участникам CISPE кредиты на использование Google Distributed Cloud в размере €100 млн в течение пяти лет. При этом в презентации подчёркивалось, что фонд инноваций и программная платформа будут доступны действующим членам CISPE с условием «сохранения организацией неограниченных возможностей в продвижении принципов справедливого ПО». ![]() Источник изображения: David Clode/unsplash.com Предполагается, что предложение было сделано с целью убедить участников CISPE не отказываться от жалоб на Microsoft, связанных с политикой лицензирования последней, которая делает использование продуктов редмондского гиганта в чужих облаках неоправданно дорогим. Жалобу подали в ноябре 2022 года, но позже Microsoft небезвозмездно уговорила большинство участников CISPE (кроме гиперскейлеров) отказаться от претензий — о попытках Google остановить этот процесс сообщалось ранее. Правда, в самой Google заявляют, что жалоба и финансовые стимулы с её стороны никак не связаны. Несмотря на отчаянные попытки Google, CISPE приняла решение отказаться от тяжб с Microsoft. По слухам, последняя потратила на улаживание претензий €10–€30 млн. При этом членам CISPE станет доступно решение Azure Local (Stack HCI) для развёртывания облака на базе собственной инфраструктуры. Источники в CISPE сообщают, что устали бороться с Microsoft и хотят просто решить проблему лицензирования, а не начинать новую войну, навязываемую Google. Microsoft, вполне возможно, тоже так или иначе заплатила участникам CISPE за отказ от преследования. Сама Google создала Open Cloud Coalition (OCC), в которую входят преимущественно небольшие британские облачные операторы и один испанский провайдер. Microsoft уже назвала группу «искусственным газоном, созданным Google» для дискредитации компании и введения регуляторов в заблуждение. OCC заявляет, что выступает за открытые стандарты и против ограничительного лицензирования и иных барьеров, мешающих конкуренции и инновациям — в Google обеспокоены тем, что массовый переход в облако Microsoft фактически лишает её клиентов. OCC можно использовать для лоббирования и жалоб в Управлении по конкуренции и рынкам Великобритании (CMA). В Евросоюзе Google также подавала жалобу на антиконкурентные практики и доминирование Microsoft в сфере облачного ПО в сентябре. Впрочем, большую часть облачного рынка Европы и так занимают AWS, Microsoft и Google. По данным Synergy Research, во II квартале 2024 года расходы на облачный рынок в Европе составили $16 млрд. На долю AWS пришлось 32 % рынка, Microsoft — 26 %, а на Google — 15 %. Крупнейшие конкуренты Microsoft называют политику лицензирования её ПО несправедливой. Так, за использование Windows Server вне Azure обходится вчетверо дороже. Тем не менее, по словам представителя CISPE, общавшегося с The Register, участники организации проголосовали за предложения Microsoft, оптимальные для европейского облачного сектора. Ранее представитель Google уклонился от прямого ответа на вопрос о том, предлагала ли компания заплатить участникам CISPE за продолжение тяжбы с Microsoft. Ранее топ-менеджмент Google официально заявлял, что оплата не предлагалась.
03.11.2024 [12:15], Сергей Карасёв
Google Cloud представила инстансы A3 Ultra с ускорителями NVIDIA H200 и готовится развернуть суперускорители GB200 NVL72Компания Google объявила о том, что в составе её облачной платформы в скором времени станут доступны инстансы A3 Ultra на базе ускорителей NVIDIA H200. Новые виртуальные машины предназначены для ресурсоёмких нагрузок, связанных с ИИ, включая обучение больших языковых моделей (LLM). Напомним, в августе 2023 года Google анонсировала инстансы A3 с ускорителями NVIDIA H100. Позднее дебютировали виртуальные машины A3 Mega с поддержкой конфиденциальных вычислений. А до конца текущего месяца клиенты получат доступ к A3 Ultra со значительно более высокой производительностью. Представленные инстансы построены на серверах с новыми DPU Titanium ML, оптимизированными для высокопроизводительных облачных рабочих нагрузок ИИ. Заявленная пропускная способность RDMA-соединений GPU↔GPU достигает 3,2 Тбит/с (RoCE). Задействована фирменная платформа Google Jupiter с оптической коммутацией. По сравнению с A3 Mega виртуальные машины A3 Ultra обеспечивают следующие преимущества:
Инстансы A3 Ultra будут доступны через Google Kubernetes Engine (GKE). Кроме того, виртуальные машины войдут в состав Hypercompute Cluster — специализированной платформы, объединяющей передовые ИИ-технологии Google Cloud. Отмечается также, что в начале 2025 года Google развернёт системы на базе NVIDIA GB200 NVL72. Ранее Google демонстрировала собственный вариант этого суперускорителя.
02.11.2024 [13:36], Сергей Карасёв
Arm-процессоры Google Axion прописались в инстансах C4A: до 72 vCPU и 576 Гбайт RAMОблачная платформа Google Cloud анонсировала инстансы C4A — первые виртуальные машины, построенные на фирменных Arm-процессорах Axion собственной разработки. Утверждается, что C4A по соотношению цена/производительность обеспечивают выигрыш до 10 % по сравнению с аналогичными предложениями конкурентов. Напомним, чипы Axion дебютировали в апреле нынешнего года. Они оснащены Armv9-ядрами Neoverse V2 (Demeter), которые функционируют в связке с контроллерами Titanium (отвечают за работу с сетью, защиту и разгрузку IO-операций). Инстансы C4A предназначены для нагрузок общего назначения. Среди них названы веб-серверы, контейнерные микросервисы, СУБД, серверы приложений, аналитика данных, обработка мультимедийных материалов и инференс. Google заявляет, что по сравнению с виртуальными машинами на основе x86-процессоров текущего поколения инстансы C4A обеспечивают повышение энергетической эффективности до 60 % и улучшение соотношения цена/быстродействие до 65 %. Учитывая эти преимущества, ключевые службы Google, такие как Bigtable, Spanner, BigQuery, F1 Query, Blobstore, Pub/Sub, Google Earth Engine и YouTube Ads, уже начали переход на Axion. Инстансы C4A доступны в трёх вариантах: standard, highcpu и highmem. Во всех версиях количество vCPU (фактически ядер) варьируется от 1 до 72. В случае стандартных модификаций на один vCPU выделяет 4 Гбайт памяти, а для highcpu и highmem — 2 Гбайт и 8 Гбайт соответственно. Таким образом, объём памяти может составлять до 576 Гбайт. Стандартная пропускная способность сетевого подключения — до 50 Гбит/с, а для приложений с интенсивным трафиком показатель может достигать 100 Гбит/с. Кроме того, доступно хранилище Hyperdisk последнего поколения с производительностью до 350 тыс. IOPS и пропускной способностью до 5 Гбайт/с. ![]() Источник изображения: Google Клиенты Google Cloud могут использовать C4A для многих сервисов, включая Google Compute Engine, Google Kubernetes Engine (GKE), Batch и Dataproc. Виртуальные машины поддерживают большинство популярных редакций Linux — RHEL, SUSE Linux Enterprise Server, Ubuntu, Rocky Linux и др. Программное обеспечение, совместимое с архитектурой Arm, доступно в Google Cloud Marketplace. ![]() Источник изображения: Phoronix Согласно тестам Phoronix, инстансы C4A с 48 vCPU обеспечивают 1,4-кратный прирост производительности по сравнению с C4 на базе Intel Xeon. А по отношению к инстансам T2A на Arm-чипах Ampere Altra новые машины C4A демонстрируют увеличение быстродействия в 1,95 раза. При этом с финансовой точки зрении новинки оказываются выгоднее других решений.
31.10.2024 [14:56], Владимир Мироненко
DIGITIMES Research: в 2024 году Google увеличит долю на рынке кастомных ИИ ASIC до 74 %Согласно отчету DIGITIMES Research, в 2024 году глобальные поставки ИИ ASIC собственной разработки для ЦОД, как ожидается, достигнут 3,45 млн единиц, а доля рынка Google вырастет до 74 %. Как сообщают аналитики Research, до конца года Google начнёт массовое производство нового поколения ИИ-ускорителей TPU v6 (Trillium), что ещё больше увеличит её присутствие на рынке. В 2023 году доля Google на рынке ИИ ASIC собственной разработки для ЦОД оценивалась в 71 %. В отчёте отмечено, что помимо самой высокой доли рынка, Google также является первым из трёх крупнейших сервис-провайдеров в мире, кто разработал собственные ИИ-ускорители. Первый TPU компания представила в 2016 году. Ожидается, что TPU v6 будет изготавливаться с применением 5-нм процесса TSMC, в основном с использованием 8-слойных чипов памяти HBM3 от Samsung. Также в отчёте сообщается, что Google интегрировала собственную архитектуру оптического интерконнекта в кластеры TPU v6, позиционируя себя в качестве лидера среди конкурирующих провайдеров облачных сервисов с точки зрения внедрения технологий и масштаба развёртывания. Google заменила традиционные spine-коммутаторы на полностью оптические коммутаторы Jupiter собственной разработки, которые позволяют значительно снизить энергопотребление и стоимость обслуживания ИИ-кластеров TPU POD по сравнению с решениями Broadcom или Mellanox. ![]() Источник изображения: cloud.google.com Кроме того, трансиверы Google получил ряд усовершенствований, значительно нарастив пропускную способность. Если в 2017 году речь шла о полнодуплексном 200G-решении, то в этом году речь идёт уже о 800G-решениях с возможностью модернизации до 1,6T. Скорость одного канала также существенно выросла — с 50G PAM4 в 2017 году до 200G PAM4 в 2024 году.
30.10.2024 [23:59], Владимир Мироненко
Облако Google Cloud увеличило выручку на 35 % и компания готова вложить ещё $7 млрд в ЦОД и оборудованиеХолдинг Alphabet, материнская структура Google, сообщил неаудированные финансовые результаты III квартала 2024 года, завершившегося 30 сентября. Alphabet заявил, что его инвестиции в ИИ окупаются, поскольку выручка облачного подразделения выросла на 35 %. Также значительно увеличилась выручка самого холдинга, значительно превысив прогнозы Уолл-стрит, благодаря чему его акции выросли в цене почти на 6 % на внебиржевых торгах во вторник. Перед пресс-конференцией в среду гендиректор Alphabet Сундар Пичаи (Sundar Pichai) отметил, что «долгосрочная ориентация и инвестиции компании в ИИ» начинают приносить плоды как корпоративным клиентам, так и обычным потребителям. Выручка Alphabet составила за квартал $88,27 млрд, превысив показатель аналогичного квартала в 2023 году на 15 %, а также консенсус-прогноз аналитиков, опрошенных LSEG, в размере $86,30 млрд. При этом доход Google Cloud вырос год к году на 35 % до $11,35 млрд, а операционная прибыль платформы увеличилась в семь раз до $1,9 млрд с $266 млн в прошлом году. Как отметила финансовый директор Alphabet Анат Ашкенази (Anat Ashkenazi), присоединившаяся к холдингу в июне после 23 лет работы в фармацевтической компании Eli Lilly, набор облачных услуг Google Workspace показал сильный рост в III квартале. При этом набор облачных инструментов для управления данными и ИИ опередил по темпам роста показатель облачного подразделения в целом. Ашкенази также сообщила, что капитальные затраты Alphabet в 2025 году будут выше, чем в этом году. В III квартале капзатраты Alphabet выросли на 62 % до $13 млрд. Большая часть этих расходов пошла на «техническую инфраструктуру, из которых около 60 % пришлось на серверы, а 40 % — на ЦОД и сетевое оборудование. По словам финдиректора, Google взяла на себя обязательство вложить в текущем квартале более $7 млрд в запланированные инвестиции в ЦОД, из которых $6 млрд будут инвестированы в объекты на территории США. Компания планирует оптимизировать «физическое присутствие и повысить эффективность технической инфраструктуры», а также «оптимизировать операции всей компании с помощью ИИ», сказала Ашкенази. Ожидается, что в IV квартале капзатраты будут такими же, как в III квартале. Чистая прибыль Alphabet выросла до $26,3 млрд или $2,12 на акцию, по сравнению с $19,7 млрд или $1,55 на акцию в аналогичном квартале прошлого года при консенсус-прогнозе аналитиков, опрошенных LSEG, в размере $1,85 прибыли на акцию.
29.10.2024 [13:39], Руслан Авдеев
Группа Open Cloud Coalition будет продвигать открытость на облачном рынке — Microsoft уже назвала её «искусственным газоном, созданным Google»На днях была основана новая группа Open Cloud Coalition (OCC), намеренная продвигать «открытость и совместимость» на рынке облачных услуг. По данным Computer Weekly, она будет поддерживать антимонопольные ведомства, надзирающие за бизнес-практиками гиперскейлеров. Новый проект пришёлся по вкусу не всем облачным операторам. OCC основана 10 компаниями, призывающими к большей открытости, совместимости и честной конкуренции на облачном рынке. Участники также обязуются публиковать исследовательские данные и консультировать регуляторов в Европе, исследующих антиконкурентное поведение. Примечательно, что в число основателей входит Google Cloud, недавно подавшая жалобу в Еврокомиссию на неконкурентные практики облачного лицензирования Microsoft. Не так давно ассоциация облачных провайдеров CISPE уже жаловалась европейским властям на Microsoft, но в итоге последняя урегулировала проблему, заплатив небольшим компаниям более $20 млн. Google, по слухам, предлагала в разы больше, чтобы более мелкие игроки не отказывались от претензий, но компанию и AWS оставили один на один с Microsoft, а последняя заявляла, что конкуренты «мутят воду», только притворяясь слабыми. ![]() Источник изображения: jean wimmerlin/unsplash.com Теперь, по данным СМИ, Google фактически запускает собственную версию CISPE, включающую Centerprise International, Civo и Gigas, а также других мелких игроков, в том числе ControlPlane, DTP Group, Prolinx, Pulsant, Clairo и Room 101. Представители коалиции заявляют, что в будущем привлекут новых участников, а соответствующие переговоры уже ведутся. Новость о появлении коалиции обнародована на фоне вестей с мирового облачного рынка, где активно расследуется антиконкурентное поведение как Microsoft, так и Amazon (AWS). В частности, соответствующие расследования ведёт Управление по конкуренции и рынкам (CMA) Великобритании с подачи регулятора Ofcom, в сферу внимания которого попали Microsoft и AWS, не в последнюю очередь с подачи Google. Похожие расследования ведутся в Испании и Дании. В условиях, когда облачная инфраструктура становится незаменимой, многие компании попали в ловушки, связанные ограничительными соглашениями, фактически не дающими возможности реализовать «мультиоблачные» стратегии. Этот тренд и намерена изменить OCC, продвигая более конкурентные практики и открытые стандарты, а также принципы, позволяющие легко менять провайдеров. Впрочем, в Microsoft уже раскритиковали инициативу, назвав организацию «искусственным газоном, созданным Google». Хотя Google формально не является лидером коалиции, предполагается, что именно она является теневым «кукловодом». В Microsoft утверждают, что конкурент добивается двух целей — пытается отвлечь от антимонопольных расследований по всему миру, проводящихся против самой Google, и пытается изменить вектор внимания регуляторов в свою пользу вместо того, чтобы состязаться честно.
18.10.2024 [18:58], Руслан Авдеев
Google тоже показала собственный вариант суперускорителя NVIDIA GB200 NVLGoogle показала собственный вариант суперускорителя NVIDIA Blackwell GB200 NVL для своей облачной ИИ-платформы, передаёт Datacenter Dynamics. Решение Google отличается от вариантов Meta✴ и Microsoft, представленных ранее. Тем не менее, это показывает высокий интерес к новой ИИ-платформе NVIDIA со стороны гиперскейлеров. Google заявила о тесном сотрудничестве с NVIDIA для формирования «устойчивой вычислительной инфраструктуры будущего». Подробнее о новой платформе будут рассказано на одной из будущих конференций Google. Пока что, увы, даже не до конца ясна конфигурация суперускорителя в исполнении Google. На фото видно сразу две стойки. Одна содержит неназванное количество ускорителей GB200, а вторая комплектуется оборудованием Google, в том числе блоками питания, коммутаторами и модулями охлаждения. Хотя NVIDIA рекомендует использовать в качестве интерконнекта InfiniBand в своих ИИ-платформах, некоторые эксперты считают, что Google пользуется собственными инфраструктурными наработками на базе Ethernet. Так, компания уже применяет оптические коммутаторы (OCS) собственной разработки в ИИ-кластерах с фирменными ускорителями TPU. Вариант Microsoft также состоит из двух стоек. Во второй смонтирован огромный теплообменник, который, вероятно, обслуживает не одну стойку с ускорителями, а сразу несколько. Известно, что ранее между Microsoft и NVIDIA были разногласия по поводу компоновки платформ для GB200. Наконец, вариант Meta✴ наиболее близок к оригинальной версии NVIDIA GB200 NVL72. При этом NVIDIA открыла её спецификации в рамках OCP. Ранее компания отказалась от выпуска «компромиссных» суперускорителей GB200 NVL36×2, которые сами по себе занимают две стойки. |
|